![]() 場所別画像分類
专利摘要:
撮影場所別に画像を分類する方法であって、画像コレクションを受け入れるステップと、同じ画像が複数通りのイベントに重複分類されることがないようその画像コレクションに属する画像をイベント別に分類するステップと、イベント毎に画像を解析してそのイベントを代表する1個又は複数個の特徴的構成要素を抽出するステップと、イベント間でその特徴的構成要素を比較して開催場所が同一か否かを調べるステップと、を有する。 公开号:JP2011508310A 申请号:JP2010539448 申请日:2008-12-16 公开日:2011-03-10 发明作者:アンドリュー;チャールズ ガラガー;マディラクシィ ダス;ジェンズ;クリスチャン ファーマー;アレクサンダー;シー ルイ 申请人:イーストマン コダック カンパニー; IPC主号:G06F17-30
专利说明:
[0001] 本発明はディジタル画像処理、特に画像の背景領域を自動検知しその結果に基づき場所別に画像を分類する方法に関する。] 背景技術 [0002] ディジタルカメラやスキャナの普及に伴い画像のディジタル化が爆発的に進んだ結果、画像を見つけにくいほど個人的な画像データベースが大規模化してしまうことが起きている。ユーザは、その画像コンテンツを示唆する注釈、キャプション、タグ等をマニュアルで画像に付すか、時間軸に沿って画像をサーチすることを余儀なくされており、このことはサーチ機能を好適に稼働させる上で大きな支障となっている。例えば、その画像の撮影日をはっきり覚えていないときや、多年に亘り来訪を繰り返して撮影したナイアガラの滝の写真、別々の時期に同じ人物を撮影した写真等、撮影時期違いの画像を寄せ集めたいときに、ユーザは、目的とする画像を見つけ出すまでに多数の無関係な画像をブラウズさせられる憂き目に遭うことがある。] [0003] これに代わる有力な策は時間軸以外のサーチ軸を提供することである。一人のユーザの画像コレクションにはテーマの共通性、例えば登場人物の共通性や撮影場所の共通性があることが多いため、その画像の被写体や撮影場所を画像のサーチ軸として利用する策や、それらのサーチ軸を複数種類組み合わせてユーザ所望の画像(群)をより好適に見つけ出せるようにする策を採ることができればよい。例えば、再生する画像を撮影場所で指定する機能があれば、自宅の居間で撮影された写真を漏れなく見つけ出す等、撮影場所に基づく画像サーチに利用することができ、撮影場所に加え撮影日や被写体をサーチ軸とすることができれば、自宅の裏庭でのバーベキューパーティに参加した友人の写真を見つけ出す等、サーチ空間を狭めてサーチを行うことができる。] [0004] 米国特許第6282317号明細書 米国特許第6606411号明細書 米国特許第6480840号明細書] 先行技術 [0005] Sharon et al., "Fast Multiscale Image Segmentation", in Proc. ofIEEE Conf. on Computer Vision and Pattern Recognition, 2000 Yu et al., "Segmentation Given Partial GroupingConstraints", in IEEE Trans. on Pattern Analysis and Machine Intelligence, Feb. 2004 Schneiderman et al., "Probabilistic Modeling of Local Appearance and Spatial Relationships for Object Recognition", in Proc. ofCVPR'98, pp.45-51 Calic et al., "Efficient Key-Frame Extraction and Video Analysis", in IEEE International Conference on Information Technology : Coding and Computing, 2002 Wu et al., "TextFinder : An Automatic System to Detect and Recognize Text in Images", in IEEE Transactions on Pattern Analysis and Machine Intelligence, Nov. 1999, pp.1224-1228 Lowe, in International Journal of Computer Vision, Vol.60, No.2, 2004 Bay et al., in 9thECCV, 2006 Memarsadeghi et al., in International Journal of Computational Geometry and Applications, 2006 Loerdeanu et al., "A Spectral Technique for Correspondance Problems Using Pairwise Constraints", ICCV, Oct. 2005 Shi et al., "Normalized Cuts and Image Segmentation", PAMI, 1997 Zhu et al., "Car Detection Based on Multi-Cues Integration", in Proceedings of the 17th International Conference on Pattern Recognition, 2004] 発明が解決しようとする課題 [0006] 画像の撮影場所を示す情報としては、GPS(汎地球測位システム)データのほかにその画像の背景がある。壁に写真が架かっている居間が背景となることも、またエッフェル塔等の有名なランドマークが背景となることもあるが、その背景がよく似ている画像同士は同じ場所で撮影された可能性が高いといえる。] [0007] その点、盛んに研究が行われている画像セグメント化の分野では、非特許文献1記載の如く、画像内の主要セグメントを自動検出する技術が開発されてはいるが、どのセグメントが背景に属するのかを判別することができない。画像を背景セグメントと非背景セグメントに分ける技術も開発されてはいるが、TVニュース放送、美術館内案内等、その背景が一様単調な分野にしか適用することができない。非特許文献2には個別の被写体に関する知識無しで背景から被写体を分離する技術が、また特許文献1(名称:写真画像内主要被写体自動判別方法(Method for Automatic Determination of Main Subjects in Photographic Images)、発明者:Luo et al.、譲受人:本願出願人と同一)には主要被写体領域を検出する技術がそれぞれ記載されているが、画像の背景に対しては十分な注意が払われていない。即ち、画像から主要被写体を取り除いた後に残る部分が単純にその画像の背景として扱われているので、主要被写体領域が背景の一部にもなりうる点が見逃されてしまう。例えばエッフェル塔の写真では、主要被写体たるエッフェル塔がその写真の撮影場所を示す背景の一部でもあるのに、その点が見逃されてしまう。] 課題を解決するための手段 [0008] ここに、本発明の一実施形態に係る方法は、その背景の特徴的構成要素を画像データから抽出し、注目している画像コレクションに属する画像をその結果に基づき識別する方法であって、 (a)画像コレクションを受け入れるステップと、 (b)同じ画像が複数通りのイベントに重複分類されることがないようその画像コレクションに属する画像をイベント別に分類するステップと、 (c)イベント毎に画像を解析してそのイベントを代表する特徴的構成要素を1個又は複数個抽出するステップと、 (d)イベント間でその特徴的構成要素を比較して開催場所が同一か否かを調べるステップと、 を有する。] 発明の効果 [0009] この方法によれば、背景領域内の画像データと非背景領域内の画像データを利用しているため、同じ場所で撮影された画像を画像コレクションからより容易に見つけ出すことができる。その画像コレクションに属する画像に注釈を付すこともできる。そのユーザの配下にある画像に頻出する非背景的な被写体を除外することもできる。] 図面の簡単な説明 [0010] 本発明に係る方法の基本構成ステップを示すフローチャートである。 図1中のステップ10に関しその詳細を示す図である。 自動顔検知で判った目位置に基づき画像中の顔領域、衣服領域及び背景領域を推定した結果を示す図である。 背景の類似性に基づきクラスタを生成して保存し、そのクラスタにラベルを付与する手順を示すフローチャートである。 画像コレクションをイベント別に分類し、特徴的構成要素を抽出し、そしてその特徴的構成要素に基づき同一場所イベントを見つけ出す手順を示すフローチャートである。 本発明の説明に使用した画像コレクション内画像の例を示す図である。 二枚の画像が同じ場所で撮影されたものである可能性をイベントコンパレータで確認する手順を示すフローチャートである。] 図1 実施例 [0011] 本発明は、本件技術分野で習熟を積まれた方々(いわゆる当業者)にとり周知のコンピュータシステム上で実行可能な発明である。その好適な実施形態は、ユーザ配下のコレクションに属する画像に対し、よく撮影が行われる場所に応じた索引を自動付与する方法であり、図1に示すように (1)画像から背景領域を検出するステップ10 (2)その背景領域を特徴付ける構成要素(色や模様)を抽出するステップ20 (3)背景間の色、模様又はその双方の類似性に基づきクラスタを生成するステップ30 (4)背景上の共通点に基づき画像に索引を付与するステップ40 (5)付与した索引に基づきコレクション内画像をサーチするステップ42 をその主要構成要素としている。] 図1 [0012] ここでいう「画像コレクション」とはユーザの配下にある静止画及び動画の集まりのことである。簡便化のため、静止画及び動画を「画像」と総称している。動画は音声付の静止画群であり、動画のなかにはテキスト付のものもある。コレクション内の静止画や動画がメタデータを伴うこともしばしばある。また、画像の背景とは、原則として、大型で不動な要素からなる部分のことである。人物、車両、動物等を捉えた可動な要素や、小さすぎて背景全体としては肝要でない小物体は、この定義には該当しない。本実施形態では、画像複数枚の背景に共通する特徴的構成要素のうち背景に該当しないものを除外し、残りの特徴的構成要素を背景領域内のものと認定する。] [0013] そのため、図2に示すように画像を処理して人物領域(50)、車両領域(60)及び主要被写体領域(70)を検出する。それらのうち人物領域検出50では、まず人物の顔の位置を特定する。この処理は既知の様々な顔検出アルゴリズムで実行可能だが、非特許文献3に記載の顔検出器を使用するのが望ましい。これは一種のベイズ分類器であり、所与の画素値データに対する顔の条件付確率を近似的に示す確率分布関数に従いMAP(maximum a posterior)分類を実行して、画像における右目の位置と左目の位置を出力する。顔検出器からこうして目位置が得られたら、右目と左目の距離たる眼距間隔(IOD)をもとに領域の拡がりを推定することで、顔や衣服に相当する画像領域を推定する。特に、画像オーガナイゼンーションツールのエンドユーザ(家族写真管理に興味を持つ消費者)にとり最重要な人物写真では、顔や衣服に相当する画像領域を除くことで背景に相当する画像領域を推定することができる。図3に示す例では、3IOD×4IODの範囲が顔領域95、5IOD×(画像下端までの距離)の範囲が衣服領域100、ほかの画像領域が背景領域105とされている。衣服領域100がほかの人物の顔領域や衣服領域で部分的に隠されることもありうる。] 図2 図3 [0014] 車両領域検出60では車両に相当する領域を検出する。その方法としては、例えば非特許文献11記載の屋外静止画内車両検出方法を使用する。この方法では、車両の形状に従いエッジポイントテンプレート及びコーナーポイントテンプレートを作成しておき、それらのテンプレートに対し強い反応を示した領域の帯域構造キュー及びローカルテキスチャキューを用いて車両検出用SVM分類器をトレーニングする。] [0015] 主要被写体領域検出70では、画像コレクション202に属する画像から主要被写体に相当する領域を検出する。その方法としては例えば特許文献1記載の方法を使用する。この方法では、低レベル画像セグメントを対象に知覚分類を実行することで、実体的な均質性のある被写体を示す大きなセグメントを作成する。次いで、その構造的又は意味論的に重要な特徴に基づき確率推論エンジンで推論することで、主要被写体領域と見なせるセグメントを検出する。こうして検出された主要被写体領域は、背景に属さないものと遠方にあるもの(背景の一部と見なせるもの)とに弁別することができる。例えば、カメラ・被写体間の距離かEXIF画像にメタデータとして付されている焦点距離を、相応のしきい値と比較すればよい。そのしきい値は例えば10mmに設定する。焦点距離がそのしきい値より大きいときに画像内に残っている主要被写体領域を除外すると、カメラに近すぎて背景の一部と見なせない被写体が除外されることとなる。] [0016] 顔/衣服領域、車両領域及び主要被写体領域が検出されたら(55,65,75)、それらから所定のしきい値よりも近距離のものを除外することで(80)、背景に相当する画像領域を検出する(90)。即ち、顔/衣服領域、車両領域等といった有意領域の検出結果に基づき主要被写体領域の検出結果を絞り込むことで(75)、顔、衣服、車両及び主要被写体のいずれにも相当しない画像領域を検出し、更にカメラに近く被写体と覚しきものを焦点距離に基づき上述の如く除外することによって(80)、背景に相当する画像領域を検出している。] [0017] 次に、背景による索引をより揺るぎないものとするため、同じ場所で撮影されたと覚しき画像複数枚の背景を総合する。同じ場所で撮影された可能性が高いのは同じイベントで撮影された画像であるので、本実施形態では、特許文献2(発明者:Loui and Pavie、発行日:2003年8月12日、譲受人:本願出願人と同一、この参照を以てその内容を本願に繰り入れることとする)に記載の方法に則り、画像をイベント別及びサブイベント別に分類する。この方法は画像間の色類似性や日時情報に基づく自動分類方法である。撮影日時情報に基づくイベント別クラスタ生成アルゴリズムに則り画像をイベント別に分類した上で、ブロックレベル色ヒストグラムの類似性に基づき画像をサブイベント別に分類するので、この方法では、生成されるサブイベント別集合毎に色分布が一意に定まる。即ち、同じ場所で撮影されたと覚しき画像が同じサブイベント別集合に分類されることとなる。] [0018] 特許文献2記載の方法に従いユーザ配下の画像コレクションをイベント別及びサブイベント別に分類した後は(110)、図4に示すように、サブイベント毎に背景領域の色及び模様を求める(120)。背景領域の色及び模様は、同じサブイベントで撮影された諸画像に共通する特徴的構成要素であり、どちらか一方でも画像のサーチに使用することができる。色及び模様の抽出には、例えば特許文献3(発明者:Zhu and Mehrotra、譲受人:本願出願人と同一)に記載の方法を使用する。この方法では、知覚的に重要なのは大面積の均質色領域であり、従って知覚的に重要な色はその大面積均質色領域の色であるとの仮定の下に、対象とする画像領域を特徴付ける色を抽出する。即ち、対象となる画像領域毎に、同色又は類似色の隣接画素が所定個数以上ある画素(均質色領域内画素)を検出し、その均質色領域内画素の個数を与える均質色ヒストグラムを作成する。この方法では、更に、知覚的に重要なのは同じ色配列が頻出する模様であるとの仮定の下に、対象とする画像領域を特徴付ける模様を抽出する。即ち、頻出する色遷移を識別して模様を検出することで、知覚的に重要な模様を抽出及び特定する。従って、そのサブイベントで撮影された諸画像から背景領域内画素を集めることで、サブイベント毎に背景領域群を形成し、その背景領域群に対しこの方法を適用することで、全画素数に対する画素数比が所定のしきい値より高くその背景領域群を代表すると見られる色及び模様を抽出することができる。更に、同文献に記載の通り、抽出した色及び模様を画像領域間で比較することにより、その画像領域間の類似性を求めることができる。] 図4 [0019] なお、処理する画像が動画である場合は、その動画からキーフレームを抽出してその動画の代表的静止画と見なし、静止画に対する処理と同様の段取りでその代表的静止画を処理すればよい。動画からキーフレームを抽出する手法は数多く公表されている。例えば、MPEG圧縮ストリームから抽出されるマクロブロック要素を統計分析して場面転換検出及びキーフレーム抽出を実時間実行する方法が、非特許文献4に記載されている。] [0020] 個々のサブイベントについて特徴的構成要素(色及び模様)が抽出されたら、図4に示すように、その特徴的構成要素をデータポイントとする特徴空間上でそれらデータポイントをグループ分けすることで、類似した特徴的構成要素からなるクラスタを幾つか発生させる(130)。このクラスタ乃至グループ生成は 0.データポイントをランダムに1個選択し、そのデータポイントを基準ポイントとするクラスタを初期生成する 1.ほかのデータポイントそれぞれについて 2.既存クラスタの基準ポイントまでの最小距離を求める 3.最小距離<しきい値ならば 4.その最小距離に係るクラスタにそのデータポイントを追加し、更に 5.当該最小距離に係るクラスタの基準ポイントを更新する 6.それ以外の場合はそのデータポイントで新たなクラスタを生成する という簡略なアルゴリズムで実行することができる。なお、基準ポイントとしてはクラスタ内データの平均値を使用すればよい。] 図4 [0021] また、画像背景の特徴的構成要素としては、色や模様に限らずテキストも抽出可能である。この抽出は公表されている方法、例えば非特許文献5に記載の方法で行える。画像の背景から検出されたテキスト間の符合をクラスタ生成過程で考慮すると、色と模様のみで求めた場合に比べてクラスタ間距離が短くなることがある。] [0022] 次に、図4に示す如くそれらのクラスタを索引表に登録する(140)。索引表は、同じクラスタ別集合に属する諸画像、即ち背景が似ていて同じ場所で撮影されたと覚しき諸画像を、場所に対しユニークに関連付ける表である。更に、諸画像のクラスタをディスプレイの画面上に表示させてユーザに示すことや、場所を示すテキストラベル(「パリ」「おばあちゃんの家」等)をクラスタ毎に入力するようユーザに求めることができる(150)。ユーザによって入力されるテキストラベルは、撮影場所毎に違う内容になるであろうし、また撮影場所が同じなら(画像間の類似性を検出できなくても)同じ内容になる可能性がある。後に図5を参照して詳述する通り、こうした場所についての記述はタグとして使用され、対応するクラスタに属する全ての画像に付与される。場所についての記述は、また、画像の上にキャプションとして自動表示させることや、画像に対応付けて保存しておき後にその画像のサーチ又は注釈に使用することもできる。] 図4 図5 [0023] このように場所(例えばユーザが入力したテキストラベル)を画像に関連付ける索引表は(140)、場所を指定したサーチに使用することができる。即ち、ユーザによる場所指定を受けて索引表を参照し、その場所で撮影された画像をそのユーザの画像コレクション内から探すことができる。このサーチは様々な形態で行うことができる。例えば、サーチのヒントになる画像をユーザが指定し、システム側で索引表を参照して画像コレクション内をサーチし、その画像が属するクラスタに属する別の画像(ユーザが指定した画像と同じ場所又は似た場所で撮影された画像)を再生する、とという形態を採ることができる。また、ユーザの入力に応じたラベルをクラスタに付与しておき、テキストベースサーチの際にユーザがクエリとして入力したテキストのうちいずれかのラベルと符合しているものを使用して画像コレクション内をサーチし、そのテキストと符合するラベルが付されているクラスタ別集合内の全画像をユーザに示す、という形態も採ることができる。そして、ユーザは、ヒントになる画像及びサーチ範囲となるイベントを指定することで、そのイベントにて同様の場所で撮影された画像を探すこともできる。] [0024] また、自明な通り、背景領域内の特徴的構成要素は何種類でも使用することができる。色、模様等はあくまで一例に過ぎない。例えば、撮影時に画像ファイル内に保存された撮影メタデータから撮影日時、フラッシュ使用の有無等の情報を取り出し、一種の特徴的構成要素として扱うこともできる。更に、画像のサーチに使用されるテキストラベルも様々な方法で生成することができる。上掲の方法以外では、背景内の画像を既知ランドマークの画像と照合し「エッフェル塔」等といったラベルを発生させる手法や、顔認識技術を用いて画像内の人物を判別し相応のラベルを発生させる手法を使用可能である。そして、そのクラスタに属する画像のいずれかにGPS座標値が付されている場合は、そのGPS座標値を、そのクラスタに属する全ての画像に共通する特徴的構成要素として扱うこともできる。] [0025] 図5に本発明の他の実施形態を示す。図中の画像コレクション202は静止画及び動画のデータにコレクション情報203を付したものである。イベントクラスタラ209はそれらの静止画及び動画を分類して幾つかのイベント別集合217を発生させる。即ち、先に特許文献2を参照して説明した分類方法に則りコレクション202内の画像を分類する。その際には、同一の画像が複数のイベント別集合217に重複して分類されないようにする。次に、特徴抽出器221は、イベント別に分類された静止画及び動画から場所特徴223を抽出する。即ち、画像の背景に含まれる特徴的構成要素を図2に示した手順に従い探索し、見つけた特徴的構成要素のうち対応するイベント集合217を代表するものを場所特徴223として抽出する。背景内の特徴的構成要素から場所特徴223を抽出する手法としては、非特許文献6に記載のSIFTを使用することができる。この方法では、ガウシアン差の極大値及び極小値に基づきその領域の特徴ポイントを検出し、それら特徴ポイントの傾斜角及び傾斜方向を求める。特徴ポイントとして検出される個所は、その画像内の注目すべき辺又は頂点と一致することが多い。また、同文献に記載のSIFTによれば、その画像の他の部分が変化した場合やパターンのスケール及び向きが変化した場合でも、パターン同士を照合することができる。また、スケール変化がありうる画像内の特定のポイントに注目してそれらを照合する手法としては、SIFTのほかに、非特許文献7に記載のSURF(Speeded up Robust Features)がある。これは、二次元Haarウェーブレット応答の総和に基づく高速な手法であるので、諸画像を効率的に処理することができる。] 図2 図5 [0026] イベントコンパレータ225は、それら場所特徴223をイベント間で比較して画像背景間の符合度を求める。これは、異なるイベント別集合に分類されていても、その背景が似ていれば同じ場所で撮影された可能性が高いためである。写真撮影等のイベントは同じ場所で繰返し行われるものであるので、別々のイベント別集合に属している画像の間に背景の類似性があれば、それらの画像が同じ場所で撮影された可能性やそれらのイベントが同じ場所で開催された可能性は高い。そこで、この例のコンパレータ225では、対をなす画像同士を比較してM行M列のアフィニティ行列Wを発生させる(M:画像コレクション202内画像の枚数)。即ち、第i画像から抽出された場所特徴203と、第j画像から抽出された場所特徴203とに基づき、第i画像と第j画像が同じ場所で撮影された可能性を調べ、得られた数値を要素w(i,j)とする行列Wを生成する(640)。例えば、第i画像と第j画像が同じイベント別集合に分類されている場合にw(i,j)を1とする。行列Wの要素w(i,j)の値のことを符合度と呼ぶ。] [0027] イベントコンパレータ225は、ある画像(照合元画像)とほかの画像(照合先画像)が同じ場所で撮影された可能性を調べる際、図7に示す手順を実行する。この手順では、まず、非特許文献6記載のSIFTで抽出された場所特徴同士を照合することで、特徴ポイントのうち照合元・照合先画像間で符合するもの(符合ポイント)を何個か検出する(610)。一般ユーザが雑に撮った写真等では、実際には別々の被写体上にある特徴ポイント同士が画像間で誤って符合ポイントとして検出される偽符合も多いので、次に、符合ポイント検出結果に幾つかの条件を課して偽符合を排除する。具体的には、まず、個々の画像内に空間的なクラスタが形成されるよう、ポイント間の二次元ユークリッド距離に基づき符合ポイントをグループ分けする(620)。このクラスタ生成のアルゴリズムとしてはアイソデータアルゴリズム、特に非特許文献8に記載の高速版を用いるのが望ましい。更に、どのクラスタにも分類されなかった符合ポイントや小規模なクラスタ(例えばポイント数<5のもの)を形成している符合ポイントを除きクラスタ分類済符合ポイントをフィルタに通し、そのフィルタで偽符合除外用の拘束条件を幾つか適用する(630)。] 図7 [0028] 第1に、特徴ポイントの所在位置は被写体領域によって制約されるので、照合元画像内でクラスタを形成しているポイントと符合するポイントによって、照合先画像内にも1個又は複数個のクラスタが形成される可能性が高い。この条件を課すため、個々の照合元画像内クラスタについて相関度を求め、その相関度がしきい値例えば0.5を下回るクラスタを除外する(632)。相関度とは、その照合元画像内クラスタに対し最強の相関を呈する照合先画像内クラスタ(その照合元画像内クラスタに対する符合ポイントの個数が照合先画像内クラスタのなかで最多のもの)に属するポイントの個数が、その照合元画像内クラスタに属するポイントの個数に占める割合のことである。第2に、照合元画像から照合先画像に至るポイント群の大域的軌跡は一定であり、両画像間での被写体の動きはどの被写体でも大雑把には同じ方向になる。この条件を課すため、照合元画像内に残っている全てのポイントを対象にして照合元・照合先画像間ポイント軌跡の平均方向を算出し、その平均方向の標準偏差σで定まる範囲(例えば1.5σの範囲)から平均方向が逸脱しているポイントを除外する(634)。第3に、同じクラスタ内にある孤立したポイントは除外されるべきである。この条件を課すため、個々の照合元画像内クラスタについてその質量中心を求め、その質量中心の標準偏差で定まる範囲から質量中心が逸脱しているポイントを除外する(636)。これらの条件が課されるようにフィルタリング(630)を実行することで、照合元・照合先画像間の符合を示す特徴ポイントを抽出することができる。課す順序は肝要ではない。抽出できた特徴ポイントの個数が多いほど信頼性の高い符合であり、符合の可能性は抽出できた特徴ポイントの個数に比例している。] [0029] なお、照合元画像と照合先画像の背景間に共通の特徴ポイントがあるか否かは、ほかの手法でも調べることができる。例えば、非特許文献9に記載のデータ特徴照合方法は、画像背景内の特徴ポイントに適用することができる。即ち、上述の手法に代えて非特許文献9記載の手法を用い、照合元画像と照合先画像の背景間に共通で位置関係が一定の特徴ポイントがあるか否かを調べることができる。] [0030] こうして第i画像(照合先画像)と第j画像(照合元画像)の背景間に特徴ポイントの符合が見つかったら、符合度を示す要素w(i,j)を1値に、またほかの要素を0値に設定する。照合元画像照合先画像間符合ポイント数が多いほど要素w(i,j)の値が大きくなるよう、当該符合ポイント数に応じ要素w(i,j)の値を設定してもよい。] [0031] 次いで、画像データのセグメント化乃至クラスタ分類を実行して同一場所イベント集合227を幾つか探し出す。このセグメント化は、非特許文献10記載の正規化カットアルゴリズムを含め様々なアルゴリズムで実行することができる。なかでも望ましいのは集積的クラスタ生成アルゴリズムを使用することである。このアルゴリズムでは、画像毎に単一画像のクラスタを生成した上で、任意の第1クラスタ内画像aから第2クラスタ内画像bまでの距離D(a,b)=−log(w(a,b))の最小値として定義される第1第2クラスタ間距離を任意のクラスタ間で求め、その距離がしきい値未満ならそれらのクラスタ同士を統合する、という処理を繰返し実行する。] [0032] 次に、図6に示す画像を例に本実施形態について更に説明する。この図に示す例では、5回のイベント271,273,275,277,279に4,2,3,2,2枚の画像が関連付けられている(符号同順)。次の表 に、イベント及び対応する画像の概要を示す。図5を参照して説明した要領に従い、特徴抽出器221は図6の画像から場所特徴223を抽出し、イベントコンパレータ225はそれを画像間で比較して背景上の共通する特徴ポイントを見つけ出す。図示例の場合、画像2712,2771双方の背景に同じ絵画が写っており(イベント271,277が同じ場所で開催された可能性が高く)、画像2731,2713双方の背景に同じ姿の冷蔵庫が写っており、画像2751,2791双方の背景に同じ店の店先が写っているので、コンパレータ225の動作で同一場所イベント集合227が2個見つかることとなる。イベント271、273及び277からなる第1の集合227と、イベント275及び279からなる第2の集合227である。] 図5 図6 [0033] なお、こうして見つかる同一場所イベント集合227は、実質的に、同じ場所で撮影された画像の集合となっている。その意味で、この集合227への分類は場所索引の付与に相当する。更に、この集合227内では、あるイベント(271)がほかのイベント間(273・277間)の“橋渡し”になることもある。例えば、イベント271に係る画像には、イベント277のそれと似た背景を有する画像2712や、イベント273のそれと似た背景を有する画像2713が含まれている。上掲の手順であれば、このように共に台所でのイベントではあるがたまたまその背景に似た点が備わっていないイベント273,277を、イベント271に着目し互いに同じ場所でのものと認識することができる。] [0034] ラベラ229は、ユーザによる入力を有効に活用しながら、それら同一場所イベント集合にラベル、例えば画像、イベント、同一場所イベント集合等の説明となる説明ラベル231を付与する。ここでは「ラベル」なる語を「タグ」「キャプション」「注釈」等の語とほぼ同義に使用している。ラベル231を付与することで、画像に写っている人物、撮影された場所(例えば「オンタリオ湖」「おばあちゃんの家」等)、開催されたイベント(例えば「誕生パーティ」)等に命名し、またその画像又はイベントについての一般的な説明(例えば「ハッピー」)を示すことができる。] [0035] ラベルインタプリタ233は、そうした説明ラベル231を自然言語処理で解析することによって、そのラベル231で示されているのが人物、場所、イベント等々のいずれであるかを判別する。また、説明ラベル231が場所についての記述235であるか否かは、場所名データベース上に登録されている場所名との照合で判別する。場所名データベースには市街、村、面白い場所、地理的名勝(川、湖、山等)といった場所の名称のほか、「自宅」「公園」「遊び場」といった一般的な場所指示語が、場所名として登録されている。インタプリタ233は、例えば、ラベル231にそうした場所名が含まれている場合に、そのラベル231が場所についての記述235であると判別する。] [0036] 例えば、画像2711に関しユーザが場所名として「自宅」を入力したとする。これに応じ発生する説明ラベル231は、ラベルインタプリタ233によって、場所についての記述235であると判別され、その所属先の同一場所イベント集合227に従い(場所索引に従い)同じ場所に係る諸画像に広まっていく。まずイベント271に係る画像に付与され、イベント273に係る画像に付与され、そしてイベント277に係る画像に付与され、といった具合である。同様に、画像2792に対し「ピッツバーグのスクワーラルヒル」なるラベルが付されたら、そのラベルは同じ場所に係る別の画像、即ち画像2791やイベント275に係る諸画像にも広まっていく。] [0037] また、GPS機能付カメラ、GPSデバイスと連携するカメラ、GPSデバイスで記録された時刻及び位置座標値に撮影時刻でアクセス可能なカメラ等で、測位情報が記録されていることもある。その場合、撮影場所又はイベント開催場所を示す説明ラベルを、その測位情報に基づき発生させることができる。そのラベルも、上記同様にして、同じ場所に係る諸画像へと広まっていく。例えば、画像2792に対し「緯度=40.438161,経度=−79.925194」を示すラベルが付与されている場合、そのラベルは同じ場所に係る別の画像、即ち画像2791やイベント275に係る諸画像に広まっていく。この機能が特に役立つのは、測位情報でタグ付けされた画像を含まない別のイベント別集合が、イベントコンパレータ225によってその種のタグを伴うイベント別集合に関連付けられたときである。この場合、元々タグ付けされていなかった方のイベント別集合に属する画像にも当該測位情報によるタグが広まっていく。] [0038] 更に、背景に含まれる特徴ポイントの符合に関するファルスポジティブな誤りも、こうしたGPSラベルで防ぐことができる。例えば、イベントコンパレータ225における前述の如き判別(第i,第j画像間背景比較による特徴ポイント間符合関係の判別)に加味し、第i及び第j画像に付されているラベル中の地理情報(緯度経度対や郵便番号)を調べて要素w(i,j)の値を定めるようにすれば、撮影場所間の距離が大きい(例えば3kmを上回る)場合等に要素w(i,j)の値を0にして余分な処理を避けることができる。] [0039] これらの説明ラベルは、撮影場所を指定して画像を探す際に便利である。即ち、ユーザは、地図上をクリックして撮影場所を指定する、アドレスを入力して撮影場所を指定する、同じ場所で撮影された画像を指定する等の手段で、望みの撮影場所を指定して画像を探すことができる。それへの応答としては、その場所を示すタグが付されている画像がユーザ向けに提示される。] [0040] なお、画像コレクション202はある撮影者一人の画像で形成されることもあるし、撮影者複数人の画像を集めて形成されることもある。インターネットから得られる画像、友人から得られる画像等、別の(ビデオ又は映画)情報源から得られる画像をイベント別集合217内に追加することもできる。] [0041] そして、図5に示すように、ユーザは、コレクション内画像に関するクエリ151を発することができる。そのクエリ151としては、例えば、ニューヨーク州ロチェスターで撮影された画像、ヒントとして与えた画像と同じ場所で撮影された画像等のように、画像の地理的な位置に関するクエリを、音声コマンド、テキスト入力、ユーザインタフェース経由等で与えることができる。画像セレクタ153は、これに応じ、コレクション内画像(及びヒントとして与えられた画像)に係る場所についての記述235を調べ、その結果に基づき画像サーチ結果155、例えば関連する静止画及び動画のリストを出力する。] 図5 [0042] 10背景領域検出、20色模様抽出、30 色模様類似性利用クラスタ生成、40 背景共通点利用索引付与、42コレクション内画像サーチ、50 顔衣服検出、55 顔衣服除外、60車両検出、65 車両除外、70 主要被写体検出、75 未除外領域検出、80 しきい値超領域除外、90残存領域検出、95 顔領域、100衣服領域、105 背景領域、110イベント別/サブイベント別分類、120 サブイベント別背景特徴抽出、130 背景類似性利用クラスタ生成、140索引表内クラスタ登録、150 場所記述入力督促、151クエリ、153画像セレクタ、155画像サーチ結果、202画像コレクション、203コレクション情報、209イベントクラスタラ、217イベント別集合、221特徴抽出器、223 場所特徴、225 イベントコンパレータ、227同一場所イベント集合、229ラベラ、231 ラベル、233 ラベルインタプリタ、235 場所についての記述、610特徴ポイント照合、620符合ポイントクラスタ生成、630フィルタ、632 クラスタ除外、634,636 ポイント除外、640符合度。]
权利要求:
請求項1 撮影場所別に画像を分類する方法であって、(a)画像コレクションを受け入れるステップと、(b)同じ画像が複数通りのイベントに重複分類されることがないようその画像コレクションに属する画像をイベント別に分類するステップと、(c)イベント毎に画像を解析しそのイベントを代表する1個又は複数個の特徴的構成要素を抽出するステップと、(d)イベント間でその特徴的構成要素を比較して開催場所が同一か否かを調べるステップと、を有する方法。 請求項2 請求項1記載の方法であって、(e)同じ場所でのイベント全てに同じ場所索引を付与するステップを有する方法。 請求項3 請求項2記載の方法であって、(f)一通り又は複数通りのイベントに説明ラベルを付与するステップを有する方法。 請求項4 請求項3記載の方法であって、(g)その説明ラベルが場所を表している場合にその説明ラベルを同じ場所でのイベント全てに付与するステップを有する方法。 請求項5 請求項2記載の方法であって、場所索引を用い上掲の又はその他の画像コレクション内をサーチする方法。 請求項6 請求項4記載の方法であって、説明ラベルと場所索引を併用して上掲の又はその他の画像コレクション内をサーチする方法。 請求項7 請求項1記載の方法であって、更に、別の情報源から複数個の画像を取得し上記画像コレクションを補強するステップを有する方法。 請求項8 請求項7記載の方法であって、インターネット又は私的若しくは公的な交際関係を当該別の情報源として使用する方法。 請求項9 請求項3記載の方法であって、上記説明ラベルがGPS座標値を含む方法。 請求項10 請求項4記載の方法であって、ユーザから画像コレクションに対するクエリが発せられたときに、場所索引を利用し、そのクエリを満たす画像をサーチする方法。 請求項11 照合元画像と照合先画像の間でその背景領域を照合する方法であって、(a)照合元,照合先双方の画像からその背景領域を検出するステップと、(b)照合元,照合先双方の画像の背景領域から特徴ポイントを抽出するステップと、(c)照合元画像内の特徴ポイントと照合先画像内の特徴ポイントを照合するステップと、(d)符合するとされた特徴ポイントに基づき空間的にコンパクトなクラスタを生成するステップと、(e)符合するとされたが同じ被写体上の領域に属していない特徴ポイントを除外するステップと、(f)照合元・照合先画像間で符合度を求めるステップと、を有する方法。 請求項12 請求項11記載の方法であって、ステップ(e)が、(i)照合先画像内の照合先クラスタに対する強い相関を欠くクラスタを除外するステップと、(ii)特徴ポイント群の大域的軌跡から外れている特徴ポイントを除外するステップと、(iii)クラスタ内でコンパクトにまとまっていない特徴ポイントを除外するステップと、を含む方法。 請求項13 請求項11記載の方法であって、ステップ(f)における符合度に、(i)ステップ(e)で除外されなかった特徴要素の個数、又は(ii)照合元・照合先画像間の空間的な距離、が含まれる方法。
类似技术:
公开号 | 公开日 | 专利标题 Saha et al.2016|Deep learning for detecting multiple space-time action tubes in videos ES2752728T3|2020-04-06|Sistemas y métodos para el reconocimiento basado en características de imagen Kemelmacher-Shlizerman et al.2016|The megaface benchmark: 1 million faces for recognition at scale Zheng et al.2015|Towards open-world person re-identification by one-shot group-based verification Karayev et al.2013|Recognizing image style Dhall et al.2013|Emotion recognition in the wild challenge 2013 Dhall et al.2015|Automatic group happiness intensity analysis US8194940B1|2012-06-05|Automatic media sharing via shutter click US9208226B2|2015-12-08|Apparatus and method for generating evidence video CA2804230C|2016-10-18|A computer-implemented method, a computer program product and a computer system for image processing US9275269B1|2016-03-01|System, method and apparatus for facial recognition JP4990383B2|2012-08-01|画像グループの表現方法、画像グループの探索方法、装置、コンピュータ読み取り可能な記憶媒体およびコンピュータシステム Ezaki et al.2004|Text detection from natural scene images: towards a system for visually impaired persons Tian et al.2001|Image retrieval using wavelet-based salient points US6813395B1|2004-11-02|Image searching method and image processing method US10303756B2|2019-05-28|Creating a narrative description of media content and applications thereof JP5037627B2|2012-10-03|顔認識を用いた画像の識別 JP5476369B2|2014-04-23|人気ランドマークの自動的発見 JP5461523B2|2014-04-02|撮影位置シーケンス情報を用いた画像分類 JP5383705B2|2014-01-08|個人的写真集合からの社会的関係の割出し JP5351958B2|2013-11-27|デジタルコンテンツ記録のための意味論的イベント検出 KR100738069B1|2007-07-10|디지털 사진 앨범의 카테고리 기반 클러스터링 방법 및시스템 JP5680063B2|2015-03-04|デジタル写真のコレクションからのランドマーク Quack et al.2008|World-scale mining of objects and events from community photo collections Chandrasekhar et al.2011|The stanford mobile visual search data set
同族专利:
公开号 | 公开日 WO2009085142A3|2009-11-05| EP2208152A2|2010-07-21| US20090161962A1|2009-06-25| EP2224372A2|2010-09-01| US8150098B2|2012-04-03| JP5318115B2|2013-10-16| WO2009085142A2|2009-07-09| EP2224372A8|2011-01-19| EP2224372A3|2014-05-07|
引用文献:
公开号 | 申请日 | 公开日 | 申请人 | 专利标题 JP2002324237A|2001-01-24|2002-11-08|Eastman Kodak Co|画像の類似性を決定するシステム及び方法| JP2003330941A|2002-05-08|2003-11-21|Olympus Optical Co Ltd|類似画像分類装置| JP2007265259A|2006-03-29|2007-10-11|Matsushita Electric Ind Co Ltd|画像検索支援装置|JP2013513167A|2009-12-02|2013-04-18|クゥアルコム・インコーポレイテッドQualcommIncorporated|プルーニング機能、画像スケーリング、および、空間制約付き特徴マッチングによる画像認識アルゴリズムの性能の改善| JP2013152550A|2012-01-24|2013-08-08|Fujitsu Ltd|写真系列の類似度算出装置、方法、及びプログラム| JP2014523015A|2011-06-17|2014-09-08|マイクロソフトコーポレーション|ロケーションを利用した認識|US5930783A|1997-02-21|1999-07-27|Nec Usa, Inc.|Semantic and cognition based image retrieval| US6240423B1|1998-04-22|2001-05-29|Nec Usa Inc.|Method and system for image querying using region based and boundary based image matching| US6345274B1|1998-06-29|2002-02-05|Eastman Kodak Company|Method and computer program product for subjective image content similarity-based retrieval| US6606411B1|1998-09-30|2003-08-12|Eastman Kodak Company|Method for automatically classifying images into events| US7298895B2|2003-04-15|2007-11-20|Eastman Kodak Company|Method for automatically classifying images into events| US6282317B1|1998-12-31|2001-08-28|Eastman Kodak Company|Method for automatic determination of main subjects in photographic images| US7076503B2|2001-03-09|2006-07-11|Microsoft Corporation|Managing media objects in a database| US6915011B2|2001-03-28|2005-07-05|Eastman Kodak Company|Event clustering of images using foreground/background segmentation| US7197158B2|2002-06-28|2007-03-27|Microsoft Corporation|Generation of metadata for acquired images| US20040126038A1|2002-12-31|2004-07-01|France Telecom Research And Development Llc|Method and system for automated annotation and retrieval of remote digital content| WO2004095374A1|2003-04-21|2004-11-04|Nec Corporation|映像オブジェクト認識装置および認識方法、映像アノテーション付与装置および付与方法ならびにプログラム| US7872669B2|2004-01-22|2011-01-18|Massachusetts Institute Of Technology|Photo-based mobile deixis system and related techniques| EP1736928A1|2005-06-20|2006-12-27|Mitsubishi Electric Information Technology Centre Europe B.V.|Robust image registration| US8611673B2|2006-09-14|2013-12-17|Parham Aarabi|Method, system and computer program for interactive spatial link-based image searching, sorting and/or displaying|US8639028B2|2006-03-30|2014-01-28|Adobe Systems Incorporated|Automatic stacking based on time proximity and visual similarity| EP2206114A4|2007-09-28|2012-07-11|Gracenote Inc|Synthesizing a presentation of a multimedia event| US7953796B2|2008-04-02|2011-05-31|Microsoft Corporation|Sharing content using selection and proposal| US8676001B2|2008-05-12|2014-03-18|Google Inc.|Automatic discovery of popular landmarks| US20090297045A1|2008-05-29|2009-12-03|Poetker Robert B|Evaluating subject interests from digital image records| US20100077289A1|2008-09-08|2010-03-25|Eastman Kodak Company|Method and Interface for Indexing Related Media From Multiple Sources| JP2010092199A|2008-10-07|2010-04-22|Sony Corp|情報処理装置および方法、プログラム、並びに記録媒体| US20100103463A1|2008-10-28|2010-04-29|Dhiraj Joshi|Determining geographic location of a scanned image| KR20100052676A|2008-11-11|2010-05-20|삼성전자주식회사|컨텐츠 앨범화 장치 및 그 방법| KR101541076B1|2008-11-27|2015-07-31|삼성전자주식회사|지형지물 인식방법| WO2010101186A1|2009-03-04|2010-09-10|公立大学法人大阪府立大学|画像検索方法、画像検索プログラム及び画像登録方法| US8396287B2|2009-05-15|2013-03-12|Google Inc.|Landmarks from digital photo collections| JP5268787B2|2009-06-04|2013-08-21|キヤノン株式会社|情報処理装置及びその制御方法、プログラム| CN101576932B|2009-06-16|2012-07-04|阿里巴巴集团控股有限公司|近重复图片的计算机查找方法和装置| CN102687171B|2009-10-16|2015-07-08|日本电气株式会社|人物检索装置及人物检索方法| US20110099199A1|2009-10-27|2011-04-28|Thijs Stalenhoef|Method and System of Detecting Events in Image Collections| US8698762B2|2010-01-06|2014-04-15|Apple Inc.|Device, method, and graphical user interface for navigating and displaying content in context| US8625907B2|2010-06-10|2014-01-07|Microsoft Corporation|Image clustering| US8548256B2|2010-07-01|2013-10-01|Intellectual Ventures Fund 83 Llc|Method for fast scene matching| EP2402867B1|2010-07-02|2018-08-22|Accenture Global Services Limited|A computer-implemented method, a computer program product and a computer system for image processing| US20120011119A1|2010-07-08|2012-01-12|Qualcomm Incorporated|Object recognition system with database pruning and querying| US8947547B1|2010-09-12|2015-02-03|Thomas Nathan Millikan|Context and content based automated image and media sharing| JP5134664B2|2010-09-14|2013-01-30|株式会社東芝|アノテーション装置| US9185469B2|2010-09-30|2015-11-10|Kodak Alaris Inc.|Summarizing image collection using a social network| US8571333B2|2010-10-17|2013-10-29|Canon Kabushiki Kaisha|Data clustering| JPWO2012056610A1|2010-10-25|2014-03-20|日本電気株式会社|コンテンツシーン判定装置| US8875007B2|2010-11-08|2014-10-28|Microsoft Corporation|Creating and modifying an image wiki page| US8655889B2|2010-12-10|2014-02-18|Microsoft Corporation|Autonomous mobile blogging| JP6013363B2|2010-12-21|2016-10-25|クアルコム,インコーポレイテッド|Computerized method and device for annotating at least one feature of an image of a view| US9111343B2|2011-01-18|2015-08-18|Roche Diagnostics Hematology, Inc.|Microscope slide coordinate system registration| US8612441B2|2011-02-04|2013-12-17|Kodak Alaris Inc.|Identifying particular images from a collection| AU2012201659A1|2011-03-25|2012-10-11|John Edward Hall|A computer implemented method, web server, client computing device and computer readable storage medium for selectively relating event data| US20120297038A1|2011-05-16|2012-11-22|Microsoft Corporation|Recommendations for Social Network Based on Low-Rank Matrix Recovery| US20130009989A1|2011-07-07|2013-01-10|Li-Hui Chen|Methods and systems for image segmentation and related applications| US9122912B1|2012-03-15|2015-09-01|Google Inc.|Sharing photos in a social network system| US9251395B1|2012-06-05|2016-02-02|Google Inc.|Providing resources to users in a social network system| US20140019867A1|2012-07-12|2014-01-16|Nokia Corporation|Method and apparatus for sharing and recommending content| CN105164700B|2012-10-11|2019-12-24|开文公司|使用概率模型在视觉数据中检测对象| US8983150B2|2012-12-17|2015-03-17|Adobe Systems Incorporated|Photo importance determination| US8897556B2|2012-12-17|2014-11-25|Adobe Systems Incorporated|Photo chapters organization| CN103916435B|2013-01-04|2018-02-02|阿里巴巴集团控股有限公司|判断信息真实性的方法和装置| KR101537665B1|2013-02-26|2015-07-20|주식회사 알티캐스트|콘텐츠 재생 방법 및 장치| US20140250175A1|2013-03-01|2014-09-04|Robert M. Baldwin|Prompted Sharing of Photos| US20140365404A1|2013-06-11|2014-12-11|Palo Alto Research Center Incorporated|High-level specialization language for scalable spatiotemporal probabilistic models| US20140372419A1|2013-06-13|2014-12-18|Microsoft Corporation|Tile-centric user interface for query-based representative content of search result documents| US20150006545A1|2013-06-27|2015-01-01|Kodak Alaris Inc.|System for ranking and selecting events in media collections| US20150006523A1|2013-06-27|2015-01-01|Kodak Alaris Inc.|Method for ranking and selecting events in media collections| US10115033B2|2013-07-30|2018-10-30|Kodak Alaris Inc.|System and method for creating navigable views| JP6323465B2|2014-01-15|2018-05-16|富士通株式会社|アルバム作成プログラム、アルバム作成方法およびアルバム作成装置| US9614724B2|2014-04-21|2017-04-04|Microsoft Technology Licensing, Llc|Session-based device configuration| WO2015164828A1|2014-04-24|2015-10-29|Nantworks, LLC|Robust feature identification for image-based object recognition| US9639742B2|2014-04-28|2017-05-02|Microsoft Technology Licensing, Llc|Creation of representative content based on facial analysis| US9773156B2|2014-04-29|2017-09-26|Microsoft Technology Licensing, Llc|Grouping and ranking images based on facial recognition data| US9430667B2|2014-05-12|2016-08-30|Microsoft Technology Licensing, Llc|Managed wireless distribution network| US9384334B2|2014-05-12|2016-07-05|Microsoft Technology Licensing, Llc|Content discovery in managed wireless distribution networks| US9384335B2|2014-05-12|2016-07-05|Microsoft Technology Licensing, Llc|Content delivery prioritization in managed wireless distribution networks| US10111099B2|2014-05-12|2018-10-23|Microsoft Technology Licensing, Llc|Distributing content in managed wireless distribution networks| US10026010B2|2014-05-14|2018-07-17|At&T Intellectual Property I, L.P.|Image quality estimation using a reference image portion| US9874914B2|2014-05-19|2018-01-23|Microsoft Technology Licensing, Llc|Power management contracts for accessory devices| US9367490B2|2014-06-13|2016-06-14|Microsoft Technology Licensing, Llc|Reversible connector for accessory devices| US9460493B2|2014-06-14|2016-10-04|Microsoft Technology Licensing, Llc|Automatic video quality enhancement with temporal smoothing and user override| US9373179B2|2014-06-23|2016-06-21|Microsoft Technology Licensing, Llc|Saliency-preserving distinctive low-footprint photograph aging effect| US10140517B2|2014-08-06|2018-11-27|Dropbox, Inc.|Event-based image classification and scoring| US9495614B1|2015-02-27|2016-11-15|Google Inc.|Verifying labels for images using image recognition| KR20160105239A|2015-02-27|2016-09-06|삼성전자주식회사|전자 장치 및 그의 영상 표시 방법| US9785305B2|2015-03-19|2017-10-10|Apple Inc.|Touch input cursor manipulation| US9916075B2|2015-06-05|2018-03-13|Apple Inc.|Formatting content for a reduced-size user interface| US10331705B2|2015-06-07|2019-06-25|Apple Inc.|Moments naming based on location accuracy| US10339193B1|2015-11-24|2019-07-02|Google Llc|Business change detection from street level imagery| JP2019512827A|2016-03-17|2019-05-16|アビギロン コーポレイションAvigilon Corporation|機械学習によってオブジェクト分類器を訓練するためのシステム及び方法| US20170357644A1|2016-06-12|2017-12-14|Apple Inc.|Notable moments in a collection of digital assets| US10127246B2|2016-08-16|2018-11-13|Microsoft Technology Licensing, Llc|Automatic grouping based handling of similar photos| CN106599850A|2016-12-16|2017-04-26|合肥寰景信息技术有限公司|一种基于车标识别交通分析方法及系统| US10803135B2|2018-09-11|2020-10-13|Apple Inc.|Techniques for disambiguating clustered occurrence identifiers|
法律状态:
2011-12-14| A521| Written amendment|Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111213 | 2011-12-14| A621| Written request for application examination|Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20111213 | 2012-12-11| A521| Written amendment|Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121210 | 2013-04-04| A711| Notification of change in applicant|Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20130403 | 2013-05-31| A977| Report on retrieval|Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130530 | 2013-06-06| TRDD| Decision of grant or rejection written| 2013-06-19| A01| Written decision to grant a patent or to grant a registration (utility model)|Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130618 | 2013-07-18| A61| First payment of annual fees (during grant procedure)|Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130709 | 2013-07-19| R150| Certificate of patent or registration of utility model|Free format text: JAPANESE INTERMEDIATE CODE: R150 | 2016-07-05| R250| Receipt of annual fees|Free format text: JAPANESE INTERMEDIATE CODE: R250 | 2017-07-25| R250| Receipt of annual fees|Free format text: JAPANESE INTERMEDIATE CODE: R250 | 2018-07-19| LAPS| Cancellation because of no payment of annual fees|
优先权:
[返回顶部]
申请号 | 申请日 | 专利标题 相关专利
Sulfonates, polymers, resist compositions and patterning process
Washing machine
Washing machine
Device for fixture finishing and tension adjusting of membrane
Structure for Equipping Band in a Plane Cathode Ray Tube
Process for preparation of 7 alpha-carboxyl 9, 11-epoxy steroids and intermediates useful therein an
国家/地区
|